Erinnern Sie sich noch an die frühen 90er Jahre, als gerade der Übergang von den 16-Bit- auf die 32-Bit-Betriebssysteme stattfand? Einige Leute waren davon wenig beeindruckt, aber ich denke, den meisten von uns war klar, dass man mit 32-Bit-Systemen eine ganze Menge Probleme lösen konnte. Schnell dominierten die 32-Bit-Prozessoren den Markt, sei es auch nur, um mit 16-Bit-Betriebssystemen zu laufen, die 32-Bit Hacks integrierten, so wie das VFAT-System von Windows for Workgroups 3.11 und QEMM.
Der völlig Neuentwurf des Betriebssystems und aller Anwendungen war eine riesige Anstrengung, aber 32-Bit-Betriebssysteme waren in der Lage, ihre unterlegenen Vorgänger schnell zu ersetzen. Vorbei war es mit segmentierten Programmen, dem Kampf zwischen Erweiterungsspeicher und Expansionsspeicher und mit allen praktischen Beschränkungen des physischen Speichers. Bestimmte Programmierungsprobleme verschwanden, wie zum Beispiel die 16-Bit langen Integerzahlen. Alles in allem war es eine große Verbesserung.
Die Zeit ist reif für 64-Bit
Warum gibt es überhaupt keine ähnlichen Anzeichen dafür, dass 64-Bit-Computing denselben Effekt haben könnte? 64-Bit-Prozessoren sind auf bestimmten RISC-Architekturen bereits seit vielen Jahren erhältlich und für viele von ihnen gibt es clevere Betriebssysteme. Aber weder Intel, noch Microsoft scheinen es besonders eilig zu haben, auf die Welt der 64-Bit-Software überzuwechseln. Außer für den Fall, dass Windows für 64-Bit-Systeme voll kompatibel zu Win32-Code wäre, kann ich mir eine großangelegte Migration auf 64-Bit eigentlich nur schwerlich vorstellen. Der Nutzen daraus ist einfach nicht überzeugend und deutlich genug. Und außerdem gibt es zur Zeit einfach viel zu viel 32-Bit-Code auf dem Markt.
Die Vorzüge der 64-Bit-Architektur gegenüber 32-Bit sind nicht so offensichtlich, wie dies bei der 32-Bit-Architektur im Verhältnis zu 16-Bit war. Die erste Überlegung, die jetzt zur Sprache kommt, ist die Beschränkung des physischen Speichers. Ein 32-Bit-Zeiger kann 4 GB Speicher ansprechen, ein 64-Bit-Zeiger dagegen kann 16 Fantastillionen FoofooBytes ansprechen. Welches auch immer das tatsächliche Limit ist, es wird sehr lange dauern, bis wir uns darüber sorgen müssen, dass diese Beschränkung in realen Systemen sichtbar wird. (Ich persönlich denke, dass Beschränkungen in den Herstellungsprozessen der Halbleiter die Dinge verlangsamen werden, bevor dies eintritt.) Will man sich bildlich vorstellen, wie groß diese Zahl ist, sollte man sich zuerst das Maximum von 4.294.967.296 Bytes in einem 32-Bit-Adressraum vorstellen. Stellt man sich nun 4.294.967.296 von diesen 32-Bit-Adressräumen vor, so erhält man genau einen 64-Bit-Adressraum.
Bereits vor langer Zeit fand Intel temporäre Hardware-Hacks, mit denen sich die 4 GB Grenze aufheben ließ. Die Xeon-Prozessoren führten die Modi PAE-36 und PSE-36 ein, die 36-Bit-Adressierung ermöglichten und damit bis zu 64 GB RAM unterstützten. Die aktuellsten Server-Versionen von Windows unterstützen die erweiterte Adressierung bereits seit der Windows NT 4.0 Enterprise Edition. Selbst heute noch sind 64 GB auch für die größten Server-Cluster noch eine ganze Menge Speicher. Schließlich, und zwar eher früher als später, wird dies aber doch noch zum Thema. Für den durchschnittlichen Desktop-Computer, denke ich, werden 32-Bit-Adressen allerdings auch noch für einige Jahre länger ausreichend sein, zumindest wenn wir den Speicher auch weiterhin so verwenden wie heute.
Neueste Kommentare
Noch keine Kommentare zu Welche Perspektiven hat 64-Bit-Computing?
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.